在这篇文章中,我们探讨了 Myriad Genetics 如何与 AWS Generative AI Innovation Center 合作,使用 Amazon Bedrock 和 Amazon Nova 基础模型改造其医疗保健文档处理管道,实现 98% 的分类准确率,同时将成本降低 77%,处理时间缩短 80%。我们详细介绍了使用 AWS 开源 GenAI 智能文档处理加速器的技术实现、文档分类和关键信息提取的优化策略,以及对 Myriad 事先授权工作流程的可衡量的业务影响。
How CBRE powers unified property management search and digital assistant using Amazon Bedrock
在这篇文章中,CBRE 和 AWS 展示了他们如何通过使用 Amazon Bedrock 构建统一的搜索和数字助理来改变物业管理,使专业人员能够通过自然语言查询访问数百万个文档和多个数据库。该解决方案结合了用于 SQL 生成的 Amazon Nova Pro 和用于文档交互的 Claude Haiku,将处理时间缩短了 67%,同时在超过 800 万个文档中保持企业级安全性。
Managed Tiered KV Cache and Intelligent Routing for Amazon SageMaker HyperPod
在这篇文章中,我们介绍了 Amazon SageMaker HyperPod 的托管分层 KV 缓存和智能路由,这些新功能可以将长上下文提示和多轮对话的首次令牌时间缩短高达 40%,并将计算成本降低高达 25%。这些功能可自动管理分布式 KV 缓存基础设施和智能请求路由,从而更轻松地部署具有企业级性能的生产规模 LLM 推理工作负载,同时显着降低运营开销。
Apply fine-grained access control with Bedrock AgentCore Gateway interceptors
我们正在推出一项新功能:Amazon Bedrock AgentCore Gateway 的网关拦截器。这一强大的新功能提供了细粒度的安全性、动态访问控制和灵活的模式管理。
How Condé Nast accelerated contract processing and rights analysis with Amazon Bedrock
在这篇文章中,我们将探讨 Condé Nast 如何使用 Amazon Bedrock 和 Anthropic 的 Claude 来加速其合同处理和权利分析工作流程。该公司广泛的产品组合涵盖多个品牌和地区,需要管理日益复杂的合同、权利和许可协议网络。
在这篇文章中,我们将介绍 UCLA 的 OARC 和 REMAP 团队的性能限制和设计选择,包括 AWS 无服务器基础设施、AWS 托管服务和生成式 AI 服务如何支持我们解决方案的快速设计和部署。我们还将描述 Amazon SageMaker AI 的使用以及如何在沉浸式现场体验中可靠地使用它。
Optimizing Mobileye’s REM™ with AWS Graviton: A focus on ML inference and Triton integration
在这篇文章中,我们重点关注 REM™ 系统的一部分:自动识别道路结构的变化,我们将其称为变化检测。我们将分享我们构建和部署变更检测解决方案的旅程,其核心是名为 CDNet 的深度学习模型。我们将分享在构建和部署基于深度学习 (DL) 模型的大规模、高度并行化算法管道时的现实决策和权衡,重点是效率和吞吐量。
Beyond the technology: Workforce changes for AI
在这篇文章中,我们探讨了将人工智能成功整合到组织中的三个基本策略:在组织债务复合之前解决它、通过“章鱼组织”模型拥抱分布式决策,以及重新定义管理角色以与人工智能驱动的工作流程保持一致。组织必须投资于技术和劳动力准备,重点关注简化流程,赋予团队在定义的参数内自主决策的能力,并将每个管理层从传统的监督发展为指导、质量保证和战略愿景设定。
Enhanced performance for Amazon Bedrock Custom Model Import
现在,您可以在使用 Amazon Bedrock 自定义模型导入时实现显着的性能改进,通过高级 PyTorch 编译和 CUDA 图形优化减少端到端延迟、加快首次令牌生成时间并提高吞吐量。通过 Amazon Bedrock 自定义模型导入,您可以将自己的基础模型引入 Amazon Bedrock 进行大规模部署和推理。在这篇文章中,我们介绍如何使用 Amazon Bedrock 自定义模型导入中的改进。
Warner Bros. Discovery achieves 60% cost savings and faster ML inference with AWS Graviton
Warner Bros. Discovery (WBD) 是一家全球领先的媒体和娱乐公司,在电视、电影和流媒体领域创建和分发全球最具差异化、最完整的内容和品牌组合。在这篇文章中,我们介绍了我们的产品规模、实时推荐系统的人工智能 (AI)/机器学习 (ML) 推理基础设施要求,以及我们如何使用基于 AWS Graviton 的 Amazon SageMaker AI 实例来处理我们的 ML 推理工作负载并实现 60% 的成本节省不同型号的延迟改善了 7% 到 60%。
Physical AI in practice: Technical foundations that fuel human-machine interactions
在这篇文章中,我们探索了物理人工智能的完整开发生命周期——从数据收集和模型训练到边缘部署——并研究这些智能系统如何通过持续的反馈循环来学习理解、推理以及与物理世界交互。我们通过 Diligent Robotics 的 Moxi 来说明这一工作流程,Moxi 是一款移动操纵机器人,已在医院完成了超过 120 万次分娩,为临床工作人员节省了近 600,000 个小时,同时转变了医疗保健物流,并将宝贵的时间返回给患者护理。
HyperPod now supports Multi-Instance GPU to maximize GPU utilization for generative AI tasks
在这篇文章中,我们将探讨 Amazon SageMaker HyperPod 现在如何支持 NVIDIA 多实例 GPU (MIG) 技术,使您能够将强大的 GPU 划分为多个独立的实例,以运行并发工作负载,例如推理、研究和交互式开发。通过最大限度地提高 GPU 利用率并减少资源浪费,MIG 可以帮助组织优化成本,同时在不同的机器学习任务中保持性能隔离和可预测的服务质量。
Accelerate generative AI innovation in Canada with Amazon Bedrock cross-Region inference
我们很高兴地宣布,加拿大的客户现在可以通过跨区域推理 (CRIS) 访问 Amazon Bedrock 上的高级基础模型,包括 Anthropic 的 Claude Sonnet 4.5 和 Claude Haiku 4.5。本文探讨了加拿大组织如何使用加拿大(中部)地区的跨区域推理配置文件来访问最新的基础模型来加速人工智能计划。我们将演示如何开始使用这些新功能,提供从旧模型迁移的指导,并分享配额管理的推荐实践。
Power up your ML workflows with interactive IDEs on SageMaker HyperPod
采用 Amazon Elastic Kubernetes Service (EKS) 编排的 Amazon SageMaker HyperPod 集群现在支持创建和管理交互式开发环境,例如 JupyterLab 和开源 Visual Studio Code,通过为数据科学家提供熟悉工具的托管环境来简化 ML 开发生命周期。这篇文章展示了 HyperPod 管理员如何为其集群配置空间,以及数据科学家如何创建和连接到这些空间。
Claude Opus 4.5 now in Amazon Bedrock
Anthropic 的最新基础模型 Claude Opus 4.5 现已在 Amazon Bedrock 中提供,这是一项完全托管的服务,提供来自领先 AI 公司的高性能基础模型选择。在这篇文章中,我将向您展示此模型的不同之处,演练关键业务应用程序,并演示如何在 Amazon Bedrock 上使用 Opus 4.5 的新工具使用功能。
Deploy GPT-OSS models with Amazon Bedrock Custom Model Import
在这篇文章中,我们展示了如何使用自定义模型导入在 Amazon Bedrock 上部署 GPT-OSS-20B 模型,同时保持与当前应用程序的完整 API 兼容性。
Streamline AI operations with the Multi-Provider Generative AI Gateway reference architecture
在这篇文章中,我们介绍了多提供商生成式 AI 网关参考架构,该架构为将 LiteLLM 部署到 AWS 环境中提供了指导,以简化跨多个模型提供商的生产生成式 AI 工作负载的管理和治理。该集中式网关解决方案通过提供支持 Amazon Bedrock、Amazon SageMaker AI 和外部提供商的统一界面,同时保持全面的安全、监控和控制功能,解决了常见的企业挑战,包括提供商碎片化、去中心化治理、运营复杂性和成本管理。
Deploy geospatial agents with Foursquare Spatial H3 Hub and Amazon SageMaker AI
在这篇文章中,您将学习如何部署地理空间 AI 代理,这些代理可以在几分钟而不是几个月内回答复杂的空间问题。通过将 Foursquare Spatial H3 Hub 的分析就绪地理空间数据与 Amazon SageMaker AI 上部署的推理模型相结合,您可以构建代理,使非技术领域专家能够通过自然语言查询执行复杂的空间分析,而无需地理信息系统 (GIS) 专业知识或自定义数据工程管道。